这项工作的目的是为视障和盲人的触觉设备做出贡献,以便让他们了解周围人的行为并与他们互动。首先,基于来自RGB-D序列的人类行动识别的最先进方法,我们使用Kinect提供的骨架信息,与解开的和统一的多尺度图卷积(MS-G3D)模型识别执行的行动。我们在真实场景中测试了这个模型,发现了一些约束和限制。接下来,我们使用CNN的MS-G3D和深度模态应用骨架模型之间的融合,以绕过讨论的限制。第三,识别的操作是用语义标记的标记,并将被映射到触摸感知的输出设备。
translated by 谷歌翻译
这项工作提出了一种基于场景架构的地点识别的新方法。从深度视频中,我们计算3D模型,我们派生和描述几何图中推导出场景描述符来构成所提出算法的核心的2D地图。所获得的结果表明,对场景外观变化和光变化的效率和鲁棒性。
translated by 谷歌翻译
Pennylane是用于量子计算机可区分编程的Python 3软件框架。该库为近期量子计算设备提供了统一的体系结构,支持量子和连续变化的范例。 Pennylane的核心特征是能够以与经典技术(例如反向传播)兼容的方式来计算变异量子电路的梯度。因此,Pennylane扩展了在优化和机器学习中常见的自动分化算法,以包括量子和混合计算。插件系统使该框架与任何基于门的量子模拟器或硬件兼容。我们为硬件提供商提供插件,包括Xanadu Cloud,Amazon Braket和IBM Quantum,允许Pennylane优化在公开访问的量子设备上运行。在古典方面,Pennylane与加速的机器学习库(例如Tensorflow,Pytorch,Jax和Autograd)接口。 Pennylane可用于优化变分的量子本素体,量子近似优化,量子机学习模型和许多其他应用。
translated by 谷歌翻译